home *** CD-ROM | disk | FTP | other *** search
/ Magnum One / Magnum One (Mid-American Digital) (Disc Manufacturing).iso / d14 / atre12.arc / OVERVIEW < prev    next >
Text File  |  1991-07-27  |  6KB  |  109 lines

  1.  
  2.  
  3.  
  4.  
  5.     SIMULATING ARTIFICIAL NEURAL SYSTEMS
  6.     USING PARSIMONIOUS PARALLELISM
  7.  
  8.     Professor William W. Armstrong
  9.     Department of Computing Science
  10.     University of Alberta
  11.     Edmonton, Alberta
  12.     Canada
  13.     T6G 2H1
  14.     Tel. (403) 492 2374
  15.     FAX: (403) 492 1071
  16.     email: arms@cs.ualberta.ca
  17.  
  18. Many problems cannot be completely solved by mathematical techniques,
  19. even though there may be a wealth of empirical data available.  For
  20. example, consider a medical application where some measurement data
  21. related to symptoms, treatments and history are given for each person
  22. in a sample, together with a value indicating whether a certain
  23. disease was found present or not after costly tests.  Suppose we want
  24. to find a simple relationship between the given data and the presence
  25. of the disease, which could lead to an inexpensive method for
  26. screening for the disease, or to an understanding of which factors are
  27. important for disease prevention.  If there are many factors, and
  28. there are complex interactions among them, the usual statistical
  29. techniques may be inappropriate.  In that case, one way of analysing
  30. data is by use of adaptive logic networks, which can, in principle,
  31. find simple relationships by means of an adaptive learning procedure.
  32. Since the method uses only empirical data, very little human
  33. intervention may be required to obtain an answer, hence making the
  34. approach very easy to try out.
  35.  
  36. Adaptive logic networks belong to the class of artificial neural
  37. systems (ANS).  Beyond applications in data analysis, such as the
  38. above, these are being used in an increasing number of applications
  39. where high-speed computation of functions is important.  For example,
  40. to correct an industrial robot's positioning to take into account the
  41. mass of an object it is holding would normally require time-consuming
  42. numerical calculations which are impossible to do in a real-time
  43. situation during use of the robot.  An ANS can learn the necessary
  44. corrections based on trial motions, and can perform the corrections in
  45. real time.  It is not necessary to use all possible masses and motions
  46. during training, since ANS have the capacity to extrapolate smoothly
  47. to cases not presented in training.
  48.  
  49. Speed and extrapolation ability would also be useful in situations
  50. where agile motions of autonomous robots are required.  Extremely high
  51. speed response is needed in electronic systems, when parameters have
  52. to be adjusted, as in automatic equalizers for communication links.
  53. Other applications are in pattern recognition, sensor fusion, sonar
  54. signal interpretation, and many areas of data analysis.
  55.  
  56. The usual type of ANS depends on fast multiplications and additions.
  57. Special chips have been built to do ANS computations at high speed,
  58. even resorting to analog operations for greater speed.  A type of ANS
  59. has been developed at the University of Alberta, following earlier
  60. work at Bell Telephone Laboratories and the Universite de Montreal,
  61. which uses only simple logical functions AND, OR, and NOT.  In
  62. hardware, computations would be done in parallel in a tree of
  63. combinational logic gates.  Comparisons with a recent chip using
  64. standard techniques suggest that hardware based on adaptive logic
  65. could evaluate functions at least one thousand times faster, and would
  66. be in the trillion connections per second range.
  67.  
  68. Another advantage of the logic networks is that most of a computation
  69. can often be left out.  For example if a logical zero is input to an
  70. AND-node in a logical tree, then the output of the node can be
  71. computed without computing the other input, or even knowing the inputs
  72. which give rise to it.  This produces no speedup in a completely
  73. parallel system, however in systems running on ordinary processors, or
  74. in systems which re-use any ANS special hardware sequentially (the
  75. usual case), it is of critical importance for speed.  Systems which
  76. combine special hardware parallelism with the possibility of leaving
  77. out unnecessary computations are using "parsimonious parallelism".  A
  78. small amount of such parsimony applies to ordinary ANS, but in logical
  79. networks, the speedups produced can amount to many orders of
  80. magnitude, and confer a great advantage on this approach vis-a-vis the
  81. usual one.
  82.  
  83. The backpropagation technique for training standard ANS is quite slow.
  84. However, there is a technique for training adaptive logic networks
  85. that runs at combinational speeds.  On-line learning would be quite
  86. feasible.
  87.  
  88. Finally, although the networks are constructed using logical
  89. operations, they can also be applied to functions of real values or
  90. integers by using appropriate encodings of reals or integers into
  91. logical vectors.  The results of logical computations are then decoded
  92. to obtain the real or integer results.
  93.  
  94. Demonstration software in C-source form is available to researchers
  95. for non-commercial purposes only.  The software is intended to be very
  96. clear, rather than being highly optimized for performance.
  97. Researchers are invited to copy it and modify it to suit their needs,
  98. without a license.  Anyone requiring better performance should inquire
  99. at the above address about other versions of the software, which will
  100. be available later.  They will offer great improvements in adaptive
  101. and evaluation algorithms, as well as numerous optimizations at the
  102. coding level.  Such a version will be ready by 1991.
  103.  
  104. Best wishes for success in using the research version of the adaptive
  105. logic network package!  Please let us know about your successes and
  106. failures, so we can better serve the research community.
  107.  
  108.  
  109.